DiscoverRSS - Audios de COPEJavier Castilla, experto en IA: "Amenazar a ChatGPT es contraproducente, no te hace caso normalmente, incluso si le pides que te insulte, nunca lo va a hacer"
Javier Castilla, experto en IA: "Amenazar a ChatGPT es contraproducente, no te hace caso normalmente, incluso si le pides que te insulte, nunca lo va a hacer"

Javier Castilla, experto en IA: "Amenazar a ChatGPT es contraproducente, no te hace caso normalmente, incluso si le pides que te insulte, nunca lo va a hacer"

Update: 2025-11-03
Share

Description

Una sorprendente frase del cofundador de Google, Sergey Brin, ha abierto un debate inesperado: "los modelos de inteligencia artificial tienden a funcionar mejor si los amenazas". Esta afirmación, pronunciada en un evento reciente, ha llevado al programa La Tarde de COPE, con Pilar García Muñiz, a poner a prueba a la IA más popular. Al pedirle información de forma educada, ChatGPT ofreció una respuesta amable y detallada. Sin embargo, al repetir la petición con insultos y amenazas, el asistente virtual cambió su tono, se volvió más escueto y exigió respeto, demostrando que el trato sí afecta a su comportamiento. Este experimento pone de relieve la creciente complejidad de nuestra interacción con herramientas como ChatGPT.

Para aclarar esta cuestión, Javier Castilla, responsable de Data e Inteligencia Artificial de COPE, ha sido tajante: amenazar a un asistente virtual de uso extendido es totalmente ineficaz. "Realmente no. De hecho, es supercontraproducente", ha afirmado en los micrófonos de COPE. Según el experto, los modelos que usamos habitualmente como ChatGPT, Gemini o Grok están diseñados con unos límites muy claros que priorizan la seguridad y el respeto en la conversación.

Estos sistemas incorporan una serie de filtros y ajustes, conocidos como "guardarraíles", que son programados por los desarrolladores antes de que la IA llegue al usuario final. La función de estos mecanismos es, precisamente, evitar que el modelo reaccione a provocaciones o genere respuestas ofensivas. "Si el usuario te insulta o empieza a tratar temas delicados, tú tienes que responder siempre de esta manera", explica Castilla sobre las directrices que se le marcan a la IA, asegurando que "incluso si tú le dices que te insulte, nunca lo va a hacer".

Entonces, ¿por qué los usuarios tienden a tratar a la IA como si fuera una persona? Castilla lo atribuye a la sofisticación de estos modelos. "Funcionan tan bien, y tú te puedes llegar a creer que hay una persona al otro lado", señala. Esta capacidad de imitar las emociones humanas activa nuestro instinto social y nos lleva a empatizar o incluso a desahogarnos con la máquina. Sin embargo, este comportamiento puede llevar a compartir más información de la debida, un riesgo sobre el que ya se ha advertido. Para saber más sobre los riesgos, puedes consultar qué no debes contarle a ChatGPT.

El experto insiste en que, más allá de cómo nos haga sentir, la interacción no tiene un componente emocional para la IA. "Por mucho que nos tranquiliza darle las gracias a ChatGPT, pedirle las cosas por favor, todo esto no sirve absolutamente de nada", sentencia Castilla. Se trata de un modelo matemático basado en estadística con una única tarea: responder a una necesidad. Aunque algunos estudios sugieren que el uso de la IA puede afectar a nuestro cerebro, como se detalla en este artículo sobre cómo la IA te hace más tonto, el asistente en sí mismo carece de emociones.

La clave para una interacción eficaz con la IA no reside en los modales, sino en la precisión. "Lo ideal es ser claros, directos y pedirle exactamente lo que tú necesitas", recomienda Javier Castilla. Aconseja usar un lenguaje casi telegráfico, similar al de "Tarzán", o estructurar las peticiones en guiones o puntos para que la IA siga un orden claro. Otra estrategia es partir de una orden básica e ir refinando la respuesta con instrucciones sucesivas, un método útil para sacarle el máximo partido como se explora en esta otra utilidad de ChatGPT.

Añadir insultos, agresividad o cualquier palabra que no aporte valor a la petición solo "empeora el mensaje" que recibe el asistente. "Cuanto más ensucias el mensaje que le das, poniéndole palabras que no tienen nada que ver con la tarea, [...] va a hacer que te dé una respuesta peor", concluye Castilla. En cuanto a la polémica frase de Sergey Brin, el experto cree que se refería a los modelos en bruto, sin filtros de seguridad, donde un lenguaje más directo y agresivo podría ser más eficaz para acotar y corregir la tarea de la IA durante su entrenamiento.

Comments 
In Channel
loading
00:00
00:00
x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

Javier Castilla, experto en IA: "Amenazar a ChatGPT es contraproducente, no te hace caso normalmente, incluso si le pides que te insulte, nunca lo va a hacer"

Javier Castilla, experto en IA: "Amenazar a ChatGPT es contraproducente, no te hace caso normalmente, incluso si le pides que te insulte, nunca lo va a hacer"